出现以下hdfs数据全为0的原因和不报告所有节点的信息,出在namenode和datanode启动id不一致,这导致的原因大部分都源于不止一次的进行Hadoop系统格式化操作。 问题截图↓ 在hadoop文件目录有你自己新创的dfs文件,每次格式化,里面name文件存储的namenode的clusterID就会发生改变,而datanode的clusterID在第一次格式化后就会确定下来,重复的格式化操作,会导致namenode的clusterID和datanode的clusterID不一致,这样就会导致hdfs不能识别datanode。 我们需要做的就是,在主节点namenode下找到/hadoop/name/curremt/这个目录,利用编辑器打开下面这个VERSION文件 主节点目录↓ 主节点VERSION文件↓ 然后将里面的clusterID这行复制,然后去到所有从节点的/hadoop/tmp/dfs/data/current/目录中,同样将目录中的VERSION文件利用编辑器打开,将其中clusterID用主节点的clusterID覆盖 从节点目录↓ 从节点VERSION文件↓
本次笔记分享到此结束,谢谢大家阅读!!~~
|